Среднее степенное взвешенное

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис

Среднее степенное взвешенное — разновидность среднего значения. Для набора положительных вещественных чисел [math]\displaystyle{ x_1, \ldots, x_n }[/math] с параметром [math]\displaystyle{ q \ne 0 }[/math] и неотрицательными весами [math]\displaystyle{ w_1, \ldots, w_n }[/math] определяется как

[math]\displaystyle{ \bar{x} = \left(\frac{\sum_{i=1}^n w_i x_i^q}{\sum_{i=1}^n w_i}\right)^{1/q} }[/math].

Если веса [math]\displaystyle{ w_1, \ldots, w_n }[/math] нормированы к единице (то есть их сумма равна единице), то выражение для среднего степенного взвешенного принимает вид

[math]\displaystyle{ \bar{x} = \left(\sum_{i=1}^n w_i x_i^q\right)^{1/q} }[/math].

Свойства

Связь с энтропией Реньи

Информационную энтропию некоторой системы можно определить как логарифм числа доступных состояний системы (или их эффективного количества, если состояния не равновероятны). Учтём, что вероятности [math]\displaystyle{ p_i }[/math] пребывания системы в состоянии с номером [math]\displaystyle{ i }[/math] ([math]\displaystyle{ i=1, \ldots, N }[/math]) нормированы к [math]\displaystyle{ 1 }[/math]. Если состояния системы равновероятны и имеют вероятность [math]\displaystyle{ p }[/math], то [math]\displaystyle{ N=1/p }[/math]. В случае разных вероятностей состояний [math]\displaystyle{ p_i }[/math] определим эффективное количество состояний [math]\displaystyle{ \overline{N} }[/math] как среднее степенное взвешенное от величин [math]\displaystyle{ x_i=1/p_i }[/math] с весами [math]\displaystyle{ p_i }[/math] и параметром [math]\displaystyle{ q=1-\alpha }[/math] (где [math]\displaystyle{ \alpha \ne 1 }[/math]):

[math]\displaystyle{ \overline{N}=\left(\sum_{i=1}^N p_i x_i^q\right)^{1/q} =\left(\sum_{i=1}^N p_i (1/p_i)^{1-\alpha}\right)^{\frac 1 {1-\alpha}} = \left(\sum_{i=1}^N p_i^\alpha\right)^{\frac 1 {1-\alpha}} }[/math].

Отсюда получаем выражение для энтропии

[math]\displaystyle{ H=\log \overline{N}=\log\left(\sum_{i=1}^N p_i^\alpha\right)^{\frac 1 {1-\alpha}}=\frac 1 {1-\alpha}\log\sum_{i=1}^N p_i^\alpha }[/math],

совпадающее с выражением для энтропии Реньи[1]. Нетрудно видеть, что в пределе при [math]\displaystyle{ \alpha\to 1 }[/math] (или [math]\displaystyle{ q \to 0 }[/math]) энтропия Реньи сходится к энтропии Шеннона (при том, что среднее степенное взвешенное — к среднему геометрическому взвешенному). По определению энтропии Реньи должно соблюдаться дополнительное ограничение [math]\displaystyle{ \alpha \geq 0 }[/math] (или [math]\displaystyle{ q \le 1 }[/math]).

Примечания

  1. Зарипов, 2005, с. 108—125.

Литература

  • Зарипов Р. Г. Новые меры и методы в теории информации. — Казань: Изд-во Казан. гос. техн. ун-та, 2005. — 364 с.